#AI 推理
中美領跑全球AI,瑞銀:海灣地區的力量亦不可忽視
中美主導全球生成式AI早已成為不爭的事實,但其他國家也並非都是陪跑角色。瑞銀近期發佈一份研究報告,稱海灣地區憑藉低成本高韌性電力接入的適宜土地,以及支援推理設施建設的強力政策,正成為全球資料中心開發的核心優選區域。據瑞銀測算,在完全折舊的前提下,電力成本佔資料中心整體物料成本的5%-10%。海灣地區充裕的電力容量使其成為建設AI推理設施的低成本區域。此外,海灣地區發展動能正逐步積聚:與超大規模雲服務商、晶片製造商的數吉瓦級合作已逐步落地,貿易限制持續放寬,電網升級計畫與國家級戰略穩步推進,同時終端與企業側對AI推理的旺盛需求,共同構築了良好的產業發展環境。不過,鑑於地緣政治重要性與敏感性,瑞銀判斷用於預訓練的超大型資料中心園區仍大機率保留在美國。Part.01 AI縮放定律近年來,AI資本開支規模與投入強度的大幅增長,源於模型智能度與算力/資料規模的強相關性,這一規律被稱為AI縮放定律。在過去的深度學習時代,該定律發生了範式轉變:更大規模的資料集、高性能硬體及演算法最佳化共同推動算力需求激增。據EpochAI資料,2010-2024年,AI訓練所用算力呈指數級增長,每6個月便實現翻倍,遠高於20世紀50年代機器學習系統誕生初期超20個月的翻倍周期。與此同時,每一輪算力擴容都伴隨能耗的顯著攀升。新一代晶片的單GPU功耗持續走高:輝達晶片的最大功率需求已從安培架構的400瓦,提升至霍珀架構的700瓦、布萊克韋爾架構的1200瓦,預計魯賓架構將達到約1800瓦。除單晶片功耗外,算力叢集規模的擴大進一步推高整體能耗;儘管硬體能效提升可部分抵消算力增長帶來的電力需求,但綜合來看,EpochAI測算2010-2024年,前沿AI模型訓練的總電力需求年均增幅仍超100%。上述趨勢凸顯了電力成本對資料中心營運的關鍵意義——電力已成為資料中心最大的營運成本項。Part.02 合作驅動海灣地區AI基礎設施增長全球頭部生成式AI基礎設施建設方已與海灣地區達成多項合作,其中阿聯的合作項目最為典型:阿聯星門項目2025年5月,輝達、甲骨文與OpenAI宣佈在阿布扎比落地星門項目,複製其在美國的星門基礎設施建設模式。根據規劃,該項目將依託輝達最先進的GB300晶片打造1吉瓦算力容量,且是總投資規模預計達5000億美元的全球星門計畫的組成部分。同時,這也是“面向國家的OpenAI”全球倡議下的首份協議,該倡議隸屬於美國星門計畫,旨在幫助美國以外地區建構自主AI能力。1吉瓦算力叢集將由當地科技企業G42承建,甲骨文與OpenAI負責營運,輝達、思科及軟銀提供技術支援,叢集將落戶阿布扎比新建的美阿AI園區,該園區是整體AI基礎設施基地的一部分,未來總算力規劃達5吉瓦。微軟在阿聯的佈局微軟已承諾2023-2029年在阿聯投資152億美元,其中包括向G42注資15億美元,並近期宣佈在該區域建設200兆瓦資料中心園區。此外,微軟聯合貝萊德、MGX及全球基礎設施夥伴成立AI基礎設施合作聯盟,承諾總投資規模達1000億美元,輝達與xAI已於今年早些時候加入該聯盟。沙烏地阿拉伯的合作項目Google與沙烏地阿拉伯公共投資基金達成100億美元合作,將在沙烏地阿拉伯建設並營運全新的雲與AI樞紐,聚焦區域本土化AI應用。亞馬遜與沙烏地阿拉伯PIF旗下AI企業HUMAIN達成超50億美元投資協議,將打造開創性的“AI專區”,該區域基礎設施將配備約15萬顆晶片(含亞馬遜Trainium晶片及輝達GPU),此投資為亞馬遜此前宣佈的53億美元沙烏地阿拉伯基礎設施投資(2026年投用)的增量項目。高通與HUMAIN達成合作,計畫2026年採用高通加速器建設200兆瓦資料中心,但因細節尚未披露,該項目的確定性低於上述合作。Part.03 海灣地區AI應用落地進展如何?海灣地區是技術前瞻性極強的區域,擁有成熟的消費市場、創新技術資本及強力政策支援。例如,阿聯早在2017年便將AI列為國家戰略優先事項,目標2031年成為全球AI領導者,推動AI在醫療、能源、水務、教育等領域的跨行業融合,並以此提升政府治理效能。因此,海灣地區的終端與企業AI滲透率整體處於全球領先或持平水平:德勤資料顯示,阿聯及沙烏地阿拉伯58%的消費者會每日或每周使用AI工具,顯著高於英國的約20%。微軟AI滲透報告指出,阿聯的人均AI使用量位居全球第一,遠超全球均值。企業端方面,德勤調研顯示海灣合作委員會國家在AI應用意願、工具落地普及率及智能體部署進度上與全球企業基本持平,考慮到AI智能體整合的成本與時間投入,瑞銀預計海灣地區國家AI工具的普及將與全球趨勢同步。瑞銀認為,AI擴散規則的調整及AI縮放定律驅動的算力需求快速增長,為GCC國家成為領先AI基礎設施區域奠定了堅實基礎;疊加充裕電力、深厚資本市場及高技術接受度的消費群體,該區域AI相關基礎設施具備強勁增長潛力。 (智通財經APP)
4倍性能、50%成本降幅!亞馬遜強勢推出Trainium3晶片,AI訓練推理增添新選項!
當地時間 12 月 2 日,亞馬遜雲端運算服務(AWS)在美國拉斯維加斯舉辦的年度雲端運算盛會“AWS re:Invent 2025”上發佈了全新的自研 Trainium3 晶片,以及採用 Trainium3 晶片的 Trainium3 UltraServer 伺服器。根據首席執行官 Matt Garman 的介紹,新款 Trainium3 晶片的性能是前代產品的 4 倍,並採用台積電 3 奈米工藝製造。每個晶片都配備了 144 GB 的 HBM3E 記憶體,記憶體頻寬為 4.9 TB/s,提供 2.52 FP8 PFLOPs 的算力。(來源:社交媒體 X)Trainium3 UltraServer 單機最多整合 144 顆 Trainium3 晶片,總共配備 20.7 TB HBM3E、706 TB/s 記憶體頻寬,可提供最高 362 FP8 PFLOPS 的算力,時延降低 4 倍,可更快訓練超大模型,並大規模支撐推理服務。其計算性能比 Trainium2 UltraServer 高出 4.4 倍,能源效率高出 4 倍,記憶體頻寬也高出近 4 倍。在使用 OpenAI 的開源大模型 GPT-OSS 進行測試時,Trainium3 UltraServer 的單晶片吞吐量可提升 3 倍,推理響應速度提升 4 倍。這意味著企業可以在更小的基礎設施規模下應對峰值需求,顯著最佳化使用者體驗,同時降低每次推理請求的成本。AWS 以垂直整合方式打造 Trainium3 UltraServer,從晶片架構到軟體棧全鏈路協同。核心之一是新一代網路基礎設施,用於消除傳統分佈式 AI 計算的通訊瓶頸:NeuronSwitch-v1 提供 2 倍 的 UltraServer 內部頻寬;增強型 Neuron Fabric 將晶片間通訊延遲降低至 10 微秒以內。這種強大的配置使得它非常適合處理下一代最前沿的 AI 工作負載,例如:訓練大規模AI模型,可以將複雜模型的訓練時間從數月縮短至數周;處理高並行的 AI 推理請求,以低延遲即時處理數百萬使用者的請求,例如智能對話、視訊生成等;運行特定複雜任務,如智能體系統、專家混合模型和大規模強化學習等。包括 Anthropic、Karakuri、Metagenomi、NetoAI、Ricoh、Splash Music 等客戶,已經借助 Trainium 將訓練和推理成本降低最多 50%。其中,Decart 在即時生成式視訊方面實現了 4 倍推理速度提升,成本僅為 GPU 的一半;而 Amazon Bedrock 已經在生產環境中使用 Trainium3 提供服務。(來源:社交媒體 X)對於需要更大規模的客戶,EC2 UltraCluster 3.0 可連線千台 UltraServer,構成擁有多達 100 萬顆 Trainium 晶片的叢集——是上一代的 10 倍。這使得此前完全不可能的任務成為現實:從在兆級 token 資料集上訓練多模態模型,到為數百萬並行使用者提供即時推理服務。自研晶片是亞馬遜的重要戰略項目之一,目標是避免過度依賴昂貴的輝達硬體。而對於 Trainium3 來說,一個關鍵問題在於:有多少大型外部客戶會願意採用這套硬體。尤其是在Google旗下的 TPU 持續搶佔 AI 晶片市場的背景下。另一個重要變數是 AI 初創公司 Anthropic 的晶片採購分配。今年 10 月,Anthropic 宣佈與Google達成合作,將使用多達 100 萬顆Google TPU 晶片,以實現除亞馬遜和輝達之外的供應多元化。Anthropic 表示,亞馬遜仍是其主要訓練合作夥伴與雲服務提供商。該公司預計,到今年年底,將使用超過 100 萬顆 Trainium 2 晶片,其中包括運行在擁有近 50 萬顆 Trainium 處理器的 Project Rainier 超級電腦之上。此外,AWS 也預告了下一代 AI 訓練晶片 Trainium4的研發進展。其在各方面都將實現大幅性能躍升,包括處理性能(FP4)至少提升 6 倍、FP8 性能提升 3 倍、記憶體頻寬提升 4 倍。結合持續的軟硬體最佳化,其實際性能提升將遠超基準數值。其中,FP8 提升 3 倍是一次基礎性飛躍。模型訓練至少快 3 倍,推理吞吐量也至少提升 3 倍,並且隨著軟體最佳化將獲得進一步加成。FP8 已成為現代 AI 工作負載在精度與效率之間的行業標準格式。為進一步提升單機擴展性能,Trainium4 將支援 NVIDIA NVLink Fusion高速互聯技術。該能力將使 Trainium4、AWS Graviton 處理器及 Elastic Fabric Adapter(EFA)能在統一 MGX 機架內協同工作,為客戶提供支援 GPU 與 Trainium 的成本更優、性能更強的機架級 AI 基礎設施。這一整合將建構一個靈活、高性能的平台,最佳化應對未來對訓練與推理都極其苛刻的 AI 工作負載。 (問芯)
谷歌TPU產能預期大幅上調67%,AI算力市場格局或將重塑
最新行業研究報告顯示,谷歌自研AI芯片TPU正迎來產能擴張的重要節點。根據供應鏈調研數據,機構將谷歌2027年TPU產量預測上調至500萬塊,較此前預期大幅增長67%,2028年預期更上調至700萬塊。這一調整反映出人工智能算力需求正在經歷爆發式增長。業內分析指出,谷歌TPU產量的激增可能意味着其將開啓對外銷售模式,這將爲谷歌開闢新的收入來源。據測算,每銷售50萬塊TPU芯片,有望爲谷歌帶來約130億美元的營收。與此同時,有消息稱Meta正在內部討論斥資數十億美元採購谷歌TPU,計劃從2027年開始將其整合到數據中心中。谷歌TPU作爲專爲深度學習定製的ASIC芯片,主要圍繞AI推理需求設計。隨着生成式AI從技術研發走向規模化應用,全球AI產業重心正加速從訓練轉向推理。據預測,2028年全球AI推理市場規模將達到1500億美元,年複合增長率超過40%,這一增速顯著高於訓練市場。在產業鏈層面,谷歌TPU的放量銷售將爲上下游企業帶來發展機遇。除了光學電路交換市場外,高帶寬存儲需求也將持續成長。三星電子與SK海力士已成爲谷歌TPU供應鏈的關鍵角色,其中SK海力士有望成爲谷歌第七代TPU的8層HBM3E芯片供應商。值得注意的是,谷歌雲平臺上的AI生態鏈正在顯現協同效應。某知名數據庫軟件開發商最新財報顯示,其雲數據庫產品營收大幅增長30%,主要受益於與谷歌雲平臺的深度集成。這一現象表明,下游AI應用的逐步成熟正在推動整個產業鏈進入良性循環。儘管近期市場出現波動,但長期來看,AI算力需求增長的邏輯並未改變。隨着各大科技企業生產線陸續投產,產業鏈上下游的芯片需求預計將迎來指數級增長。分析認爲,人工智能產業的發展趨勢已然明確,相關領域將持續呈現積極變化。
HBF or HBM?高頻寬快閃記憶體(HBF)更適合AI推理!
這張圖介紹了HBF(高頻寬快閃記憶體)在 AI 推理伺服器中的應用價值:AI工作負載的內存需求可以分為模型參數讀取和KV 快取讀寫兩類:1. 模型參數讀取(Weight Streaming,權重流)訪問模式:大粒度順序讀取。頻寬需求:需支撐GB/s~TB/s 級頻寬,對 “高頻寬” 特性高度依賴。部署優勢:若 HBF 靠近計算核心部署,大容量特性可顯著提升權重讀取效率。2. KV 快取讀寫(KV Cache Read/Write)訪問模式:快取級隨機訪問,對延遲極度敏感。操作特性:生成每個token時都會觸發寫操作;且 KV 快取的大小會隨上下文長度和注意力頭數量線性擴展。HBF 為何不適用訓練場景?訓練場景的記憶體需求與 HBF 的技術侷限存在根本衝突:訪問模式:寫密集型,伴隨持續的梯度更新、最佳化器狀態修改,且存在頻繁細粒度讀寫。介質侷限:HBF 基於快閃記憶體技術,受限於兩個核心短板 ——耐用性:快閃記憶體的擦寫次數有上限,寫密集的訓練會快速耗盡其生命周期;延遲:快閃記憶體的讀寫延遲遠高於 DRAM,無法滿足訓練對低延遲的嚴苛要求。HBF為何適配推理場景?可從三方面理解:特性匹配:HBF 具備大容量、低成本、高密度的優勢,完美適配推理伺服器對 “儲存規模” 和 “成本效率” 的需求。工作負載契合:推理中的 “權重流” 任務是大粒度順序讀取,與 HBF 的頻寬優勢完全匹配。場景區分:訓練是 “寫密集型” 工作負載,會突破 HBF 的耐用性和延遲上限;而推理的讀寫模式更溫和,可充分發揮 HBF 的潛力。HBF取代HBM會發生什麼?假設HBF完全取代了HBM作為GPU的主記憶體。其優勢在於:每GPU多TB記憶體容量使非常大型模型能夠局部安裝在每個加速器上對於頻寬密集型權重流且預取能力強,高效高效但也具有很明顯的侷限性:KV快取作延遲不足隨機訪問性能仍不及 HBM培訓和混合工作量不切實際不支援通用GPU使用場景因此HBF僅適用於具有固定作模式的專用推理加速器,無法作為通用GPU中HBM的替代。HBM + HBF混合GPU記憶體最好!HBM仍然是主要的低延遲記憶體,而HBF則作為高容量讀取最佳化層加入。HBM→KV 快取、熱啟動、中間張量HBF→模型參數、冷啟動通過 HBM 維護低延遲計算流水線,減少對 HBM 的依賴和成本,還相容當前的GPU設計和軟體棧,缺點是包設計複雜度增加,且需要關注功耗與熱量問題。 (銳芯聞)
AI的世界
上次說到,AI大神楊立昆一心想打造一個能理解物理世界的AI模型,那就是世界模型,在這一點上,他和AI教母李飛飛的方向是一致的。作為史丹佛大學電腦科學系的首席教授,和史丹佛“以人為本AI研究院”的聯席院長,李飛飛在史丹佛官網上的資料顯示,她正處於休假狀態。就是在李飛飛休假期間,她創辦了自己的新公司,名叫World Labs,這是李飛飛非常想做的事情,也是她認定的、AI該有的未來。那就是世界模型。具體而言,那是一個理解現實物理世界,擁有空間智能,會推理3D空間的智能AI系統。在最新一篇一萬多字的論文中,李飛飛指出,現在的AI其實是處於黑箱狀態,AI的世界不是立體的、3D的,只是平面的一連串字元。即使現在的AI再博學,無所不通,它仍然只是大語言模型,LLM,Large Language Model,只會說,沒有空間智能。現在AI,其核心能力是理解和生成人類語言,那是通過演算法,算力和資料,這三個要素訓練而成。而所謂的資料並非現實世界原來的樣子。如同當年李飛飛創辦ImageNET資料庫,教會AI識別圖片一樣,所有給AI投喂的資料,都經過人類的標註,使用AI能識別的字元。資料是平面的,一切如你所知,AI不知道,酒杯碎了,紅酒會灑在地面上。AI不知道,貓咪為什麼能躲在櫃子後方,不被看到。而且AI的空間是錯亂的,不連貫的。李飛飛的首要目標,就是讓AI學會自己建構一個空間,一個遵循物理規律的3D世界。一旦AI的這個虛擬世界,成長的現實世界無二,空間智能成熟,立體化的AI也將真正走進人類世界,成為真正的人類助手。那這就會是AI的未來。李飛飛說,如同北極星的指引,這一場探索,我們一起去追尋。 (後知說)
外媒:全球自然資源面臨AI發展的巨大挑戰
去年9月OpenAI   CEO   Sam Altman在一份內部備忘錄中提出一項計畫:在 2033 年前打造高達 250GW 的計算能力。這一用電規模已逼近一個國家的總用電,約等同於支撐整個印度 15 億人口的電力消耗。AI訓練與推理需要大量電力外媒一則報導據此指出:支撐 250GW 運算能力所需的 GPU 數量將達到 6,000 萬顆,以現行兩年一換代的經濟壽命推算,OpenAI 必須每年採購 3,000 萬顆 GPU 才能維持運作。極高的電力密度和運轉負載,已使 AI 訓練與推理成為全球成長最快的能源消耗來源之一。資料中心也是耗電大王同時,龐大用電與龐大的晶片需求已不再只是 OpenAI 的課題。全球大型雲服務商,包括 Microsoft Azure、Amazon AWS 與 Google Cloud,也正投入比以往任何時期更大規模的資料中心擴建。業界普遍預期,這些資料中心在未來十年將與鋼鐵、水泥與煉油產業並列全球主要耗電者,特別是 AI 伺服器全年無休,以推論與訓練為核心的運算模式,使資料中心用電急速增長。在這波 AI 電力競賽下,冷卻需求成為另一個被放大的環節。資料中心規模暴增,使得大量冷卻用水與裝置能耗拉高城市負荷,也造成局部電網品質下降與電價波動。多個國家已警告,資料中心集中區域可能面臨電力緊縮,部分地區甚至提前限制用電或推遲新資料中心建設,以避免影響一般家庭與企業的用電需求。GPU晶片生產能耗極大報導進一步指出,AI 晶片需求的爆炸式成長,使全球半導體供應鏈在啟動許多廠房,其中包括台積電與三星的多項先進製程基地。以台積電為例,Fab 25 單廠的用電量即需至少 1GW,可支撐約 75 萬戶台灣家庭;每日用水量約 10 萬公噸,相當於近 20 萬名台中市民的日常用水。台積電向外投資設廠除地緣政治之因素外,台灣的水電供給能否持續當是一個隱秘的考量。而今,隨著美國、中國、歐洲與東南亞等市場相繼投入 AI 基礎建設,科技競爭也逐漸演變成能源與資源競賽。AI 擴張與全球能源需求報導指出,AI 用電增長速度可能在未來十年內超過再生能源新增速度,電力供需缺口、區域性停電風險與電網負載問題將成為新常態。除了用電增長外,GPU 製造所需的稀土、金屬、超純水與能源,都對地球提出更高的負荷。因而,這篇報導最後強調,當人們不斷追求更大的模型、更高的算力與更密集的 GPU 部署時,除了思考「AI 還需要多少電」,更必須面對關於地球資源的問題——「自然資源究竟還能支撐多少人工智慧的擴張」? (芯聞眼)
Google×耶魯聯手發佈抗癌神器!AI推理精準狙擊「隱身」癌細胞
【新智元導讀】近日,Google與耶魯大學聯合發佈的大模型C2S-Scale,首次提出並驗證了一項全新的「抗癌假設」。這一成果表明,大模型不僅能復現已知科學規律,還具備生成可驗新科學假設的能力。剛剛,AI科學應用領域又有一件大事發生!Google與耶魯大學的科學家們聯合發佈了一個大模型Cell2Sentence-Scale 27B(C2S-Scale)。該模型提出了一個關於癌細胞行為的全新假設,並在多次體外實驗中得到驗證。這一發現引發廣泛關注,它展示了人工智慧模型生成原創科學假設的潛力,有望由此打開一條人類抗癌的新途徑。網友prinz在x平台上評價道,「這表明該模型並非簡單重複已知事實,而是生成了新的、可驗證的科學假設。」C2S-Scale基於Google的開源Gemma模型建構,訓練語料涵蓋超過10億個Token的轉錄組資料、生物學文獻與中繼資料,從而使其具備跨維度解析細胞行為的能力。目前,耶魯大學的研究團隊正在推進AI在其他免疫學情境中生成更多科學預測,這一機制的出現有望加速抗癌新療法的研發步伐。研究人員還在bioRxiv上公開了論文的預印本,目前該論文正在經歷「同行評審」階段。AI不是只懂復現還可以提出全新發現C2S-Scale是一款擁有270億參數、旨在理解單個細胞「語言」的基礎模型。它建立在Gemma模型家族之上,將單細胞分析帶入了一個全新的前沿階段。C2S-Scale在科學預測方面的成果證明了研究團隊在生物學模型上的一項假設:生物學模型同樣遵循明確的模型擴展規律——就像自然語言模型一樣,模型越大,在生物學任務上表現越優。這也引出一個更為關鍵的問題:更大的模型只是提升了已有能力,還是能夠獲得全新的推理能力?模型擴展的真正潛力,在於催生新思路、揭示未知規律,而非僅限於性能的線性提升。癌症免疫治療的一大挑戰在於許多腫瘤相對於免疫系統而言幾乎都是「隱身」的。讓腫瘤「現身」的一個關鍵是通過抗原呈遞(antigen presentation)讓它們顯示出能觸發免疫反應的訊號。抗原呈遞,是把病原體(比如病毒、腫瘤)的「可疑分子片段」(抗原)展示在細胞表面,讓免疫細胞看到並識別,從而決定是否發動攻擊。研究人員賦予C2S-Scale這樣的任務:讓它尋找一種「條件性放大劑」,能夠在「免疫環境陽性」(Immune-Context-Positive)情況下增強免疫訊號。這一任務需要模型具備複雜的條件推理能力,而這種能力正是大模型隨著規模擴大所湧現的特性——較小模型無法捕捉這種依賴環境的效應。為了實現這一點,研究人員設計了一個「雙環境虛擬篩選」流程,以識別這種特定的協同效應。該流程包括:免疫環境陽性(Immune-Context-Positive):輸入真實患者樣本,保留腫瘤與免疫系統的互動,並維持低水平干擾素訊號;免疫環境中性(Immune-Context-Neutral):輸入缺乏免疫背景的細胞係數據。研究人員在以上兩種環境中對超過4000種藥物進行模擬,並要求模型預測那些藥物只會在免疫環境陽性條件下增強抗原呈遞,從而更符合臨床實際。結果顯示,約有10%–30%的藥物在文獻中已有報導,這驗證了模型的可信度。而其餘候選則是從未被報導過的新發現,這意味著模型不僅復現了已知生物學現象,還發現了潛在的新型免疫協同藥物。新里程碑AI「抗癌假說」得到驗證C2S-Scale模型發現了激酶CK2抑製劑silmitasertib(CX-4945)具有一種顯著的「環境分化效應」:僅在免疫訊號活躍的環境中顯著增強抗原呈遞,而在免疫中性環境下幾乎無效。這一發現表明模型成功生成了具備實驗可驗證性的全新生物假設。在後續的實驗階段,研究人員在人體神經內分泌細胞模型中測試了這一假設,實驗顯示:單獨使用silmitasertib對抗原呈遞(MHC-I)影響不顯著;低劑量干擾素單獨使用僅產生輕微效果;聯合使用兩者則顯著增強抗原呈遞,使其提升約50%。這一結果證實模型預測的可靠性,並揭示出讓腫瘤對免疫系統更易被識別的潛在新途徑。C2S-Scale模型電腦模擬預測多次在體外實驗中得到驗證。它成功識別出一種新的干擾素依賴性放大劑,揭示出讓「冷腫瘤」變「熱」的潛在新途徑,為免疫治療帶來新的希望。儘管該研究仍處於早期階段,這一成果已為新型聯合療法的開發提供了實證依據,並開啟了以大模型驅動的生物學發現新範式——科學假設的生成、篩選與驗證將日益智能化、系統化。目前,新的C2S-Scale 27B模型及其相關資源已在Hugging Face全面開放。地址:https://huggingface.co/vandijklab/C2S-Scale-Gemma-2-27B也可以在GitHub上訪問其程式碼。地址:https://github.com/vandijklab/cell2sentence研究人員希望和更多的人共同探索上述工具,進一步拓展該項研究的成果,讓大模型可以解讀更多生命語言的奧秘,從而為醫療科技帶來全新突破。 (新智元)
英特爾公佈新款GPU Crescent Island,明年開始客戶測試
英特爾周二發佈全新GPU“Crescent Island”,主打AI推理高能效和低成本,配備160GB LPDDR5X記憶體,採用新一代Xe3P微架構。該卡將於2026年下半年開始客戶測試,是英特爾打造開放AI系統架構戰略的一部分。英特爾周二公佈了一款搭載160GB記憶體、具備高能效的資料中心GPU,並將其加入該公司的AI加速器組合,旨在推動英特爾以開放系統與軟體架構為核心的新AI戰略。這款GPU代號為“Crescent Island(新月島)”,根據英特爾介紹,它專為運行推理工作負載的風冷企業級伺服器而設計,強調“功耗與成本最佳化”。Crescent Island採用英特爾的Xe3P微架構,該架構主打單位功耗下的高性能表現,配備160GB LPDDR5X記憶體,並支援多種資料類型,為大語言模型(LLM)提供充足的運行空間。英特爾的公告還指出,Crescent Island將支援多種資料類型,並被定位為“非常適合”提供tokens-as-a-service服務的廠商和AI推理使用場景。除了強調能效表現,Crescent Island還將採用風冷散熱設計,並以成本最佳化為目標。英特爾目前正通過現有的Arc Pro B系列GPU推進其開放原始碼軟體棧,為Crescent Island做準備。英特爾表示,計畫於2026年下半年開始向客戶提供樣品。不過英特爾並未公佈正式上市時間——是否會趕在2026年內發佈尚不清楚,更可能的情況是要等到2027年才正式大規模推出。目前也沒有發佈任何產品幻燈片、原型圖或更多技術細節。英特爾此次並未公佈關於“Jaguar Shores”的最新進展。Jaguar Shores是英特爾今年早些時候宣佈的一款面向機架級平台的下一代GPU。在上個月的一次記者簡報會上,英特爾首席AI與技術官Sachin Katti表示,Crescent Island具備“增強的記憶體頻寬”和“大量記憶體容量”,這讓它成為“token雲服務和企業級推理場景的理想選擇”。Crescent Island是在2025年OCP全球峰會上正式亮相的,標誌著英特爾正式開啟了每年發佈新GPU的節奏。此前一周,英特爾剛剛圍繞即將推出的“Panther Lake”和“Clearwater Forest”兩款CPU大力宣傳,這次發佈GPU也屬同一系列動作。媒體表示,在過去兩年中,輝達和AMD已先後轉向每年發佈新產品的節奏,英特爾此舉也意在追趕步伐。過去15年間,英特爾在加速晶片領域經歷了多次失敗,歷經四任CEO,始終未能在這個由輝達主導的AI基礎設施市場中站穩腳跟。Sachin Katti是由英特爾CEO陳立武在今年4月任命,負責領導公司的新AI戰略。他表示,英特爾正在圍繞“開放系統與軟體架構”建構AI硬體市場的新願景,目標是提供“適配合理規模與成本”的算力,以支撐未來的自主型AI工作負載。他說:“我們將建構可擴展的異構系統,為agentic AI(自主型AI)工作負載提供無摩擦的使用體驗,同時借助開放異構架構,實現這些工作負載在每美元性能表現上的最優解。”Katti表示,這種開放策略將為客戶和合作夥伴在系統層和硬體層提供更多選擇,讓多家廠商都能參與進來。他補充說:“隨著我們不斷帶來更多顛覆性的技術,這些新技術都可以被無縫嵌入到這個開放的異構架構中。” (硬AI)